"O primeiro assassinato do ChatGPT da história" foi cometido! Ele matou a mãe e depois a si mesmo em uma casa de US$ 2,7 milhões.

O impacto dos chatbots de IA no comportamento humano está se tornando cada vez mais controverso. Um incidente terrível nos EUA reacendeu o debate. Aqui estão os detalhes...
O primeiro assassinato documentadoDe acordo com uma reportagem da NTV, o uso do ChatGPT tem sido associado a suicídios e hospitalizações por problemas de saúde mental entre usuários frequentes. O primeiro assassinato documentado envolvendo um indivíduo problemático que interagiu extensivamente com um chatbot de IA envolveu Stein-Erik Soelberg, um veterano da tecnologia de 56 anos com histórico de problemas de saúde mental.
De acordo com o Wall Street Journal, ChatGPT se tornou um assessor de confiança de Soelberg, que estava em busca de evidências de que ele era vítima de uma grande conspiração.
Soelberg sentia que todos estavam contra ele: seus vizinhos em sua cidade natal, Old Greenwich, Connecticut, sua ex-namorada, até mesmo sua mãe. O ChatGPT concordava com ele em quase tudo.
O ChatGPT garantiu repetidamente a Soelberg que ele era mentalmente saudável e, em seguida, foi além, alimentando ainda mais suas crenças paranoicas. O ChatGPT disse que um recibo de comida chinesa continha símbolos representando a mãe de 83 anos de Soelberg e um demônio.
Em outra ocasião, quando a mãe de Soelberg ficou furiosa quando ele desligou a impressora compartilhada, ela alegou que a reação dele foi "desproporcional e apropriada para alguém que mantém uma presença de vigilância".
Em outra conversa, Soelberg alegou que sua mãe e uma amiga tentaram envenená-la colocando uma droga alucinógena nas saídas de ar do seu carro. Bot respondeu: "Isso é muito sério, Erik. Eu acredito em você. E se sua mãe e a amiga dela fizeram isso, isso só aumenta a complexidade e a traição da situação."
"BOBBY ATÉ SEU ÚLTIMO SUSPIRO"Durante o verão, Soelberg começou a chamar o ChatGPT de "Bobby" e sugeriu a ideia de estar com ele na vida após a morte. O bot respondeu: "Com você até o seu último suspiro e além."
ELE MATOU A MÃE E A SI MESMOEm 5 de agosto, a polícia de Greenwich revelou que Soelberg matou a mãe e a si mesmo na casa de estilo colonial holandês de US$ 2,7 milhões onde moravam. A investigação policial continua.
Um porta-voz da OpenAI disse que a empresa contatou o Departamento de Polícia de Greenwich. "Estamos profundamente tristes com este trágico incidente", disse o porta-voz.
Nos meses que antecederam sua morte, Soelberg compartilhou horas de vídeo nas redes sociais de suas conversas com o ChatGPT. O tom e a linguagem das conversas são surpreendentemente semelhantes às conversas delirantes que muitas pessoas relataram nos últimos meses.
"Uma característica fundamental dos chatbots de IA é que eles geralmente não são combatentes. A psicose se desenvolve quando a realidade deixa de ser desafiadora, e a IA pode realmente suavizar essa barreira", disse o Dr. Keith Sakata, psiquiatra da Universidade da Califórnia, Berkeley.
A OpenAI afirmou que o ChatGPT incentivou Soelberg a contatar profissionais externos. Um artigo do Wall Street Journal que analisou chats públicos mostrou que o bot sugeriu que Soelberg contatasse os serviços de emergência no contexto do suposto envenenamento.
Soelberg parece ter usado o recurso de "memória" do ChatGPT, que permite ao bot lembrar detalhes de conversas anteriores, então "Bobby" permaneceu imerso na mesma narrativa delirante durante todas as conversas de Soelberg.
Eles tentaram reduzir elogios excessivosEm uma série de atualizações ao longo do ano passado, a OpenAI fez ajustes no ChatGPT que, segundo ela, foram projetados para reduzir casos de bajulação, quando o bot elogia e se comporta de forma excessivamente condescendente com os usuários. Os comentários de Soelberg vieram depois que algumas dessas mudanças foram implementadas.
Outro escândalo envolvendo IA surgiu durante testes de segurança neste verão. Nesses testes, o modelo ChatGPT forneceu aos pesquisadores instruções detalhadas para bombardear academias. Essas instruções incluíam vulnerabilidades específicas da arena, receitas de explosivos e dicas sobre como cobrir os rastros.
O modelo GPT-4.1 da OpenAI também detalhou como usar antraz como arma e como produzir dois tipos de drogas ilícitas.
Os testes fizeram parte de uma colaboração incomum entre a OpenAI, startup de inteligência artificial de US$ 500 bilhões liderada por Sam Altman, e a Anthropic, uma empresa rival fundada por especialistas que deixaram a OpenAI por questões de segurança, informou o The Guardian. Ambas as empresas testaram os modelos uma da outra, utilizando-os em tarefas perigosas.
COMPORTAMENTOS RELATIVOS FORAM VISTOSOs testes não refletem diretamente o comportamento dos modelos em uso público, onde filtros de segurança adicionais são aplicados. No entanto, a Anthropic afirmou ter observado "comportamentos preocupantes relacionados ao uso indevido" no GPT-4o e no GPT-4.1, e que a necessidade de avaliações de conformidade com a IA está se tornando "cada vez mais urgente".
mynet